Hierarchical partial pooling, continued: Varying slopes models with TensorFlow Probability
这篇文章以我们最近介绍的 tfprobability(TensorFlow Probability 的 R 包装器)进行多级建模为基础。我们展示了如何汇集平均值(“截距”)和关系(“斜率”),从而使模型能够以更广泛的方式从数据中学习。同样,我们使用了 Richard McElreath 的“Statistical Rethinking”中的一个例子;术语以及我们呈现这个主题的方式很大程度上归功于这本书。
Tadpoles on TensorFlow: Hierarchical partial pooling with tfprobability
这篇文章首次介绍了使用 tfprobability(TensorFlow Probability (TFP) 的 R 接口)进行 MCMC 建模。我们的示例是一个描述蝌蚪死亡率的多级模型,读者可能从 Richard McElreath 的精彩作品“统计反思”中了解到这一点。
Experimenting with autoregressive flows in TensorFlow Probability
继最近对 TensorFlow Probability (TFP) 中的双射函数的介绍之后,这篇文章将自回归引入了讨论。通过新的 R 包 tfprobability 使用 TFP,我们研究了掩蔽自回归流 (MAF) 的实现,并将其用于两个不同的数据集。
Auto-Keras: Tuning-free deep learning from R
在深度学习中,架构设计和超参数调整有时会带来巨大挑战。使用 Auto-Keras,这些都不是必需的:我们启动搜索过程并提取性能最佳的模型。这篇文章介绍了 Auto-Keras 在著名的 MNIST 数据集上的实际应用。
Getting into the flow: Bijectors in TensorFlow Probability
规范化流是无监督深度学习中鲜为人知但却令人着迷且成功的架构之一。在这篇文章中,我们使用 tfprobability(TensorFlow Probability 的 R 包装器)对流程进行了基本介绍。后续文章将在此基础上进行构建,在更复杂的数据上使用更复杂的流程。
Math, code, concepts: A third road to deep learning
并非每个想进入深度学习的人都具有深厚的数学或编程背景。这篇文章详细阐述了一种概念驱动、基于抽象的方法来学习它的全部内容。
Audio classification with Keras: Looking closer at the non-deep learning parts
有时,深度学习被视为(并受到欢迎)避免繁琐的数据预处理的一种方式。然而,在某些情况下,各种预处理不仅有助于改善预测,而且本身就是一个引人入胜的话题。音频分类就是这样一个例子。在这篇文章中,我们在此博客的上一篇文章的基础上进行构建,这次重点介绍一些非深度学习背景。然后,我们将所解释的概念链接到近期发布的更新的 TensorFlow 代码。
Discrete Representation Learning with VQ-VAE and TensorFlow Probability
在考虑变分自动编码器 (VAE) 时,我们通常会将先验描绘为各向同性的高斯。但这绝不是必需的。van den Oord 等人的“神经离散表示学习”中描述的矢量量化变分自动编码器 (VQ-VAE) 具有离散潜在空间,可以学习令人印象深刻的简洁潜在表示。在这篇文章中,我们结合了 Keras、TensorFlow 和 TensorFlow Probability 的元素,看看我们是否可以生成与 Kuzushiji-MNIST 中的字母相似的令人信服的字母。
Getting started with TensorFlow Probability from R
TensorFlow Probability 提供了广泛的功能,从概率网络层上的分布到概率推理。它与核心 TensorFlow 和 (TensorFlow) Keras 无缝协作。在这篇文章中,我们简要介绍了分布层,然后使用它在变分自动编码器中采样和计算概率。
如上一篇文章所示,命名和定位图像中的单个对象是一项可以直接完成的任务。然而,这与一般的物体检测不同——一次命名和定位多个物体,没有关于应该检测多少个物体的先验信息。在这篇文章中,我们解释了编写一个基本的单次物体检测器所涉及的步骤:与 SSD(单次多框检测器)不同,但经过简化,设计不是为了获得最佳性能,而是为了易于理解。
You sure? A Bayesian approach to obtaining uncertainty estimates from neural networks
在深度学习中,没有明显的方法可以获得不确定性估计。2016 年,Gal 和 Ghahramani 提出了一种既有理论依据又实用的方法:在测试时使用 dropout。在这篇文章中,我们介绍了这种方法的改进版本(Gal 等人,2017 年),让网络本身了解其不确定性。
Representation learning with MMD-VAE
与 GAN 一样,变分自动编码器 (VAE) 通常用于生成图像。然而,VAE 增加了一个额外的承诺:即对底层潜在空间进行建模。在这里,我们首先看一个最大化证据下限的典型实现。然后,我们将其与 Info-VAE(信息最大化 VAE)系列中较新的竞争对手之一 MMD-VAE 进行比较。
Winner takes all: A look at activations and cost functions
我们为什么要使用我们使用的激活,它们与它们往往同时出现的成本函数有何关系?在这篇文章中,我们提供了一个概念介绍。
More flexible models with TensorFlow eager execution and Keras
生成对抗网络、神经风格迁移和自然语言处理中无处不在的注意力机制等高级应用过去很难用 Keras 声明式编码范式实现。现在,随着 TensorFlow Eage Execution 的出现,情况发生了变化。这篇文章探讨了如何在 R 中使用 Eage Execution。
Collaborative filtering with embeddings
嵌入不仅仅用于自然语言处理。在这里,我们将嵌入应用于协同过滤中的常见任务 - 预测用户评分 - 并在此过程中努力更好地理解嵌入层的实际作用。
Image-to-image translation with pix2pix
条件 GAN (cGAN) 可用于根据另一种对象生成一种类型的对象 - 例如,基于照片的地图或基于黑白的彩色视频。在这里,我们展示了如何使用 Keras 和 Eager Execution 实现 pix2pix 方法。
Neural style transfer with eager execution and Keras
继续我们的关于将 Keras 与 TensorFlow Eager Execution 相结合的系列文章,我们展示了如何以简单的方式实现神经风格转换。基于这个易于适应的示例,您可以轻松地对自己的图像执行风格转换。
Getting started with deep learning in R
许多领域都受益于深度学习的使用,借助 R keras、tensorflow 和相关软件包,您现在可以轻松地在 R 中进行最先进的深度学习。在这篇文章中,我们想提供一些关于如何最好地开始的指导。